在本文中,我们介绍Bayesldm,这是一个用于贝叶斯纵向数据建模的系统,该系统由高级建模语言组成,具有针对复杂的多变量时间序列数据建模的特定功能,并与编译器相结合,可以生成优化的概率程序代码,以在指定模型中执行指定的推理。 Bayesldm支持贝叶斯网络模型的建模,其特定关注动态贝叶斯网络(DBN)的高效,声明性规范。 Bayesldm编译器将模型规范与可用数据和输出代码相结合,用于执行贝叶斯推断,以同时处理丢失的数据,同时处理未知模型参数。这些功能有可能通过抽象产生计算有效的概率推断代码的过程来显着加速域中的迭代建模工作流,这些迭代建模工作流程涉及复杂纵向数据的分析。我们描述了Bayesldm系统组件,评估表示和推理优化的效率,并提供了该系统在分析异质和部分观察到的移动健康数据的应用示例。
translated by 谷歌翻译
3D面部建模一直是计算机视觉和计算机图形学研究的活跃领域,从虚拟化身中的面部表达转移到合成数据生成,助长了应用。现有的3D深度学习生成模型(例如,VAE,gan)允许生成紧凑的面部表征(形状和纹理),可以在形状和外观空间中建模非线性(例如,散射效果,镜面等)。但是,他们缺乏控制微妙表达产生的能力。本文提出了一种新的3D面部生成模型,该模型可以使身份和表达不适,并提供对表达式的颗粒状控制。特别是,我们建议使用一对监督自动编码器和生成对抗网络来产生高质量的3D面,无论是外观和形状而言。实验结果是用整体表达标签或作用单元标签学到的3D面的产生结果表明,我们如何将身份和表达分离;在保留身份的同时,获得精细的表达方式。
translated by 谷歌翻译
Advances in computer vision and machine learning techniques have led to significant development in 2D and 3D human pose estimation from RGB cameras, LiDAR, and radars. However, human pose estimation from images is adversely affected by occlusion and lighting, which are common in many scenarios of interest. Radar and LiDAR technologies, on the other hand, need specialized hardware that is expensive and power-intensive. Furthermore, placing these sensors in non-public areas raises significant privacy concerns. To address these limitations, recent research has explored the use of WiFi antennas (1D sensors) for body segmentation and key-point body detection. This paper further expands on the use of the WiFi signal in combination with deep learning architectures, commonly used in computer vision, to estimate dense human pose correspondence. We developed a deep neural network that maps the phase and amplitude of WiFi signals to UV coordinates within 24 human regions. The results of the study reveal that our model can estimate the dense pose of multiple subjects, with comparable performance to image-based approaches, by utilizing WiFi signals as the only input. This paves the way for low-cost, broadly accessible, and privacy-preserving algorithms for human sensing.
translated by 谷歌翻译
Diffusion models have achieved unprecedented performance in generative modeling. The commonly-adopted formulation of the latent code of diffusion models is a sequence of gradually denoised samples, as opposed to the simpler (e.g., Gaussian) latent space of GANs, VAEs, and normalizing flows. This paper provides an alternative, Gaussian formulation of the latent space of various diffusion models, as well as an invertible DPM-Encoder that maps images into the latent space. While our formulation is purely based on the definition of diffusion models, we demonstrate several intriguing consequences. (1) Empirically, we observe that a common latent space emerges from two diffusion models trained independently on related domains. In light of this finding, we propose CycleDiffusion, which uses DPM-Encoder for unpaired image-to-image translation. Furthermore, applying CycleDiffusion to text-to-image diffusion models, we show that large-scale text-to-image diffusion models can be used as zero-shot image-to-image editors. (2) One can guide pre-trained diffusion models and GANs by controlling the latent codes in a unified, plug-and-play formulation based on energy-based models. Using the CLIP model and a face recognition model as guidance, we demonstrate that diffusion models have better coverage of low-density sub-populations and individuals than GANs. The code is publicly available at https://github.com/ChenWu98/cycle-diffusion.
translated by 谷歌翻译
生成模型(例如gan和扩散模型)以无监督的方式学习潜在的数据分布。但是,许多感兴趣的应用都需要从生成模型的输出空间的特定区域或在一系列特征范围内进行采样。为了允许在这些情况下进行有效的采样,我们提出了生成视觉提示(提示),这是一个通过合并任意现成模型的知识来对预训练的生成模型进行分配控制的框架。 Prestgen将控制定义为基于能量的模型(EBM),并通过使用可逆的神经网络近似EBM来以馈送方式进行示例图像,从而避免了推理时的优化。我们演示了提示如何使用各种出现的模型来控制多种生成模型(例如,stylegan2,stylenerf,styLenerf,bixfusion autocoder和nvae):(1)使用剪辑模型,提示可以通过文本引导的示例图像,(2)使用图像分类器,提示器可以在一组属性上脱离偏差的生成模型,并且(3)使用反图形模型,提示器可以在不同姿势中示例相同身份的图像。 (4)最后,Prestgen揭示了剪辑模型在用作控制时显示“报告偏差”,并且提示器可以以迭代方式进一步偏离此受控分布。我们的代码可在https://github.com/chenwu98/generative-visual-prompt上找到。
translated by 谷歌翻译
语言模型既展示了定量的改进,又展示了新的定性功能,随着规模的增加。尽管它们具有潜在的变革性影响,但这些新能力的特征却很差。为了为未来的研究提供信息,为破坏性的新模型能力做准备,并改善社会有害的效果,至关重要的是,我们必须了解目前和近乎未来的能力和语言模型的局限性。为了应对这一挑战,我们介绍了超越模仿游戏基准(Big Bench)。 Big Bench目前由204个任务组成,由132家机构的442位作者贡献。任务主题是多样的,从语言学,儿童发展,数学,常识性推理,生物学,物理学,社会偏见,软件开发等等。 Big-Bench专注于被认为超出当前语言模型的功能的任务。我们评估了OpenAI的GPT型号,Google内部密集变压器体系结构和大型基础上的开关稀疏变压器的行为,跨越了数百万到数十亿个参数。此外,一个人类专家评估者团队执行了所有任务,以提供强大的基准。研究结果包括:模型性能和校准都随规模改善,但绝对的术语(以及与评估者的性能相比);在模型类中的性能非常相似,尽管带有稀疏性。逐渐和预测的任务通常涉及大量知识或记忆成分,而在临界规模上表现出“突破性”行为的任务通常涉及多个步骤或组成部分或脆性指标;社交偏见通常会随着含糊不清的环境而随着规模而增加,但这可以通过提示来改善。
translated by 谷歌翻译
社会存在,与真实的人在一起的感觉,将推动由数字人类在虚拟现实(VR)中驱动的下一代通信系统。最佳的3D视频VR化身最小化不可思议的效果取决于特定于人的模型。但是,这些PS模型既耗时又耗时,并且通常受到数据可变性有限的训练,从而导致概括和稳健性差。影响面部表达转移算法准确性的主要变异性包括使用不同的VR耳机(例如,摄像头配置,耳机的斜率),面部外观随时间变化(例如,胡须,化妆)和环境因素(例如, ,照明,背景)。这是VR中这些模型可扩展性的主要缺点。本文通过提出了通过专门的增强策略培训的端到端多个认同体系结构(MIA)来克服这些局限性的进展。 MIA使用最小的个性化信息(即中性的3D网格形状),从VR耳机中的三个相机(两只眼睛,一只嘴)从三个相机(两只眼睛,一只嘴)驱动了头像的形状。同样,如果可用PS纹理解码器,MIA能够在具有挑战性的情况下驱动完整的Avatar(Shape+Texture)强劲的PS模型。我们对改善鲁棒性和概括的关键贡献是,我们的方法以无监督的方式隐含地将面部表达与滋扰因素(例如耳机,环境,面部外观)脱离。我们在各种实验中证明了所提出的方法与最先进的PS方法的卓越性能和鲁棒性。
translated by 谷歌翻译
In recent years multi-label, multi-class video action recognition has gained significant popularity. While reasoning over temporally connected atomic actions is mundane for intelligent species, standard artificial neural networks (ANN) still struggle to classify them. In the real world, atomic actions often temporally connect to form more complex composite actions. The challenge lies in recognising composite action of varying durations while other distinct composite or atomic actions occur in the background. Drawing upon the success of relational networks, we propose methods that learn to reason over the semantic concept of objects and actions. We empirically show how ANNs benefit from pretraining, relational inductive biases and unordered set-based latent representations. In this paper we propose deep set conditioned I3D (SCI3D), a two stream relational network that employs latent representation of state and visual representation for reasoning over events and actions. They learn to reason about temporally connected actions in order to identify all of them in the video. The proposed method achieves an improvement of around 1.49% mAP in atomic action recognition and 17.57% mAP in composite action recognition, over a I3D-NL baseline, on the CATER dataset.
translated by 谷歌翻译
我们介绍了工业金属对象的多样化数据集。这些对象是对称的,无纹理的和高度反射的,导致在现有数据集中未捕获的具有挑战性的条件。我们的数据集包含具有6D对象姿势标签的现实世界和合成多视图RGB图像。现实世界数据是通过记录具有不同对象形状,材料,载体,组成和照明条件的场景的多视图图像获得的。这将产生超过30,000张图像,并使用新的公共工具准确标记。合成数据是通过仔细模拟现实世界条件并以受控和现实的方式改变它们来获得的。这导致超过500,000张合成图像。合成数据和现实世界数据与受控变化之间的密切对应关系将有助于SIM到现实的研究。我们的数据集的规模和挑战性的性质将有助于研究涉及反射材料的各种计算机视觉任务。数据集和随附的资源可在项目网站https://pderoovere.github.io/dimo上提供。
translated by 谷歌翻译
机器学习(ML)可以改善和自动化质量控制(QC)在注塑制造中。但是,由于广泛的现实过程数据的标签成本很高,因此,模拟过程数据的使用可能会为成功实施提供第一步。在这项研究中,模拟数据用于开发一个预测模型,以针对注射成型排序容器的产品质量。测试集中达到的准确性,特异性和敏感性分别为$ 99.4 \%$,$ 99.7 \%$和$ 94.7 \%$。因此,这项研究表明了ML在注射成型中对自动化QC的潜力,并鼓励扩展到接受现实世界数据的ML模型。
translated by 谷歌翻译